Compte-rendu GT IA du 23/04/2025
Suite à l’insistance des organisations syndicales pendant la présentation en CSA M du projet de feuille de route ministérielle sur l’Intelligence artificielle (IA), l’administration a convoqué un groupe de travail. Ce document en cours d’élaboration, actuellement en circulation entre les différents services du secrétariat général et au service des affaires juridiques pour examen, sera prochainement soumis à la ministre.
L’enseignement agricole ne faisait pas partie du cadre des échanges, malgré nos demandes répétées auprès de la DGER pour que ce sujet d’importance soit abordé rapidement, compte tenu des nombreuses questions et difficultés que l’Intelligence artificielle soulève dans les établissements d’enseignement.
Le ministère participe à l’incubateur ALLiaNCE de la direction interministérielle du numérique, présenté comme « un espace de confiance pour les agents publics de l’État souhaitant faire adopter l’IA pour améliorer les services publics. » Le haut-fonctionnaire à l’IA participe également au réseau interministériel des correspondants IA.
Notre administration se dit attentive aux réflexions européennes de lAI act qui « vise à encadrer le développement, la mise sur le marché et l’utilisation de systèmes d’IA, qui peuvent poser des risques pour la santé, la sécurité ou les droits fondamentaux. »
La mise en place de l’IA dans notre administration prétend s’appuyer sur les besoins des services « pour se simplifier la tâche. » Une cartographie des données est en cours d’élaboration pour catégoriser les données sensibles et celles qui le sont moins.
L’administration affirme que la transparence des algorithmes est une nécessité et qu’elle procède à une évaluation des outils en les catégorisant comme souverains ou moins souverains. Ce qui reste un vœu pieux quand on sait que dans toute intelligence artificielle on observe des effets « boîte noire » appelés aussi « hallucinations » que même les concepteur·ices sont incapables d’expliquer et souvent même de reproduire.
L’administration indique avoir mis en place un groupe non-technique sur l’accompagnement des agent·es. Plusieurs OS ont rappelé la nécessité d’acculturer et de former les agent·es.
La DINUM propose une enveloppe de 5 millions d’euros pour répondre aux projets des ministères – « Un financement sur départ lancé. »
Interrogée sur le montant modique du fond compte tenu des exemple dont on dispose dans d’autres administration et également sur le fond de transformation de l’action publique qui conditionne l’attribution de financements à des gains de productivité, notre administration s’est montrée « rassurante » : « Nous n’allons pas perdre de temps et soumettre notre projet très rapidement à la DINUM. »
Second argument avancé sur le financement : la présidente de la commission européenne a annoncé 300 milliards d’euros sur l’IA. Sur les gains de productivité, pas vraiment de réponse malgré plusieurs relances pointant que cela prône en fait la suppression de postes…
L’administration rassure en indiquant que tout projet d’IA sera mis en œuvre sur un principe de réversibilité : « Dans une logique d’itération pour éviter les grands tunnels ». Nous voilà rassuré·es.
Nous avons interrogé l’administration sur plusieurs points préoccupants :
Recours à des prestataires étrangers : « Nous ferons attention aux clauses et il va falloir les faire évoluer ». Nous voilà rassuré·es.
Protection des données (RGPD) : « L’IA n’a pas le monopole du RGPD ». Nous voilà rassuré·es.
Impact environnemental : « On a demandé à notre centre de données de suivre l’indice PUE » (indicateur d’efficacité énergétique). Pour l’instant « nous sommes dans la moyenne. » Nous voilà rassuré·es alors qu’aucun outil d’IA n’est encore déployé.
Périmètre de déploiement : « Alimentation, contrôles de carcasses… » Interrogée sur le déploiement au SRH, la réponse fut oui mais non mais oui « pour automatiser certains processus » comme l’attestation France Travail à la fin d’un contrat. Cela sera évalué sous le prisme d’une approche « RH éthique ». Nous voilà rassuré·es.
L’administration va mettre en place un comité décisionnel pour évaluer les projets IA, mais cela ne concernera que ceux qui ont « un impact ». Nous voilà rassuré·es…
Ce comité sera composé de la SG/Dir Num/Dir Stat/la direction métier qui porte le projet IA/DAJ/peut-être le SRH. Pour ce dernier : « Je vais en échanger avec la SG. » Et les OS ? « Elles n’en feront pas partie. Les directions métiers en informeront dans les instances. » Nous voilà rassuré·es, encore une fois.
L’administration prévoit de mettre à disposition des portails référençant les IA souveraines et non souveraines. Mais quid de leur usage réel et de leur contrôle ?
De nombreux points restent désespérément évasifs, comme la mise en place d’une charte éthique : « C’est à la réflexion, je prends le point. » Une formule qui semble traduire l’absence de réelle préoccupation sur le sujet.
Sur l’éloignement du terrain, la perte de sens qui est relevée partout où l’IA a été déployée, ainsi que la perte d’expertise, nous n’avons pas obtenu de réponses substantielles. Le silence s’est fait encore plus assourdissant quand nous avons rappelé que les outils IA se déploient partout soi-disant pour permettre aux agent·es de se consacrer à des « tâches à forte valeur ajoutée », alors qu’imaginer être en permanence sur une haute intensité de travail fait avant tout courir des risques psychosociaux majeurs et relève de l’illusion managériale.
Sur les questions éthiques de l’entraînement des IA, point de réponse non plus. Ce processus est délégué aux entreprises prestataires et opéré loin de chez nous, souvent dans les anciennes colonies occidentales, dans des conditions de travail indignes et avec des salaires de misère – un angle mort délibérément ignoré.
L’enseignement agricole ne semble pas, dans l’immédiat, concerné. Mais il a été rappelé que l’IA soulève de nombreuses questions fondamentales qui, pour le moment, restent sans réponses concrètes de la part de l’administration.
Pour conclure, cette présentation d’une feuille de route encore en cours de finalisation n’apporte guère de réponses rassurantes face aux enjeux majeurs qu’elle soulève.
Dans une interview accordée au journal Le Monde, Cory Doctorow, essayiste, activiste et auteur influent dans le domaine numérique, propose une analyse qui mérite notre attention. À la question d’Alexandre Piquard “En Europe et en France, start-up et gouvernements jugent nécessaire d’investir dans l’IA pour ne pas se faire dépasser par les Etats-Unis ou la Chine, ont-ils tort ?”, il répond ceci :
« Il n’y a rien de mal à investir pour ne pas se faire dépasser dans des domaines importants : la santé publique, l’éducation aux sciences informatiques, l’énergie solaire ou l’électricité. Mais ce n’est pas grave d’être dépassé dans les arnaques en ligne ou les virus informatiques… Et aujourd’hui, je pense que les « AI bros » [les apôtres de l’intelligence artificielle] sont un mélange de gens qui mentent et de gens qui se trompent sur le potentiel de leur technologie. »
Une vision lucide qui doit nous inviter à questionner l’impact réel de ces outils et l’engouement que suscitent ces technologies.